Je veux utiliser un moyen de calcul ou de stockage mutualisé : comment faire ?
Présentation générale / liens vers les tutoriels
Vous trouverez les liens vers la documentation d'utilisation des moyens mutualisés dans cette présentation générale des infrastructures numériques en Nouvelle-Aquitaine.
Moyens de stockage mutualisés
En Nouvelle-Aquitaine
- stockage recherche iRODS
- 500 To utiles (1.3 Po brut)
- 10 To max par utilisateur (1 To / utilisateur est plus raisonnable !)
- recopie asynchrone des données sur un second site distant (transparent pour l'utilisateur)
- ce stockage est accessible à tous les chercheurs de l'UP et de l'UL via un compte LDAP au MCIA (tuto dans la présentation ci-dessus)
à l'UP
- stockage recherche S3
- 1 Po brut
- gestion de buckets / accès en lecture par url : déjà opérationnel
- cloud enseignement/recherche via NextCloud
- accès au stockage recherche S3 vu comme un lecteur réseau dans le NextCloud : opérationnel fin 2025 (en test à la rentrée)
- plateforme d'édition collaborative IRIS
- accès au NextCloud via un connecteur : opérationnel fin 2025 (en test à la rentrée)
- collaboratif via Office365 (appli web chez Microsoft) : déjà opérationnel
- collaboratif via OnlyOffice (appli web chez i-médias => respecte les consignes ZRR) : opérationnel fin 2025 (en test à la rentrée)
à l'UL
- lecteur réseau
- 50 Go max par utilisateur : déjà opérationnel
- cloud via OneDrive
- 10 Go max par utilisateur
- collaboratif via Sharepoint (appli web chez Microsoft) : déjà opérationnel
- stockage S3
- stockage d'applications
- eLabFTW : Cahier de Laboratoire Electronique (CLE)
- Jupyter Notebooks
- gestion de buckets / accès en lecture par url interne : opérationnel fin 2025 (en test à la rentrée)
- stockage d'applications
Moyens de calcul mutualisés
Tous ces clusters de la Nouvelle-Aquitaine sont accessibles à tous les chercheurs de l'UP et de l'UL via un compte LDAP au MCIA (tuto dans la présentation ci-dessus).
En Nouvelle-Aquitaine
- cluster Curta
- localisé à Bordeaux
- contient
- 336 noeuds CPU : 32 coeurs, 96 Go de RAM / noeud => 10 752 coeurs au total
- 4 noeuds de Visu 3D : 32 coeurs, 192 Go de RAM
- 4 noeuds GPU : 2 P100 16Go, 32 c, 192 Go de RAM
- 4 noeuds BigMem : 64 coeurs, 3 To de RAM / noeud
- cluster Pyrene
- localisé à Pau
- contient
- 40 noeuds CPU : 32/40 coeurs, 96/256 Go de RAM / noeud => 1 312 coeurs au total
- 1 noeud de Visu 3D : 32 coeurs, 192 Go de RAM
- 1 noeud GPU : 2 P100 16Go, 32 c, 192 Go de RAM
- 5 noeuds BigMem : 64 coeurs, 1.5 To de RAM / noeud
- cluster CALI3
- localisé à Limoges
- contient
- 4 noeuds GPU : 2 H100 80Go, 48 c, 384 Go à 1.5To de RAM => 8 GPUs H100 80Go au total
- CPU : AMD Epyc 4e Gen 32c (Bergamo)
- 3 noeuds GPU : 4 L40 48Go, 48 c, 384 Go de RAM / noeud => 12 GPUs L40 48Go au total
- CPU : AMD Epyc 4e Gen 32c (Bergamo)
- 4 noeuds GPU : 2 H100 80Go, 48 c, 384 Go à 1.5To de RAM => 8 GPUs H100 80Go au total
- contient également CALI2
- 15 noeuds GPU : 3 RTX 6000 48Go (2020) => 45 RTX au total
- 4 noeuds GPU : 3 A40 48Go (2020) => 12 A40 au total
- 3 noeuds GPU : 8 GTX 1080 Ti 11Go (2018) => 24 GTX au total (cuda)
- cluster Jarvis
- localisé à Poitiers
- contient
- 768 coeurs (Intel Sapphire Rapids), 6 To de RAM
- Noeud Calcul : 192 coeurs et 1.5 To de RAM sur 120h / user
- Noeud Visu & RT : 12 coeurs et 768 Go de RAM sur 12h / user
- 1 L40S 48Go via ssh / VirtualGL (TurboVNC)
- Noeud Interactif : 48 coeurs et 192 Go de RAM sur 12h / user
- 1 L40S 48Go via Open OnDemand (Portail Web)
- 768 coeurs (Intel Sapphire Rapids), 6 To de RAM
- mesocentre (en cours de construction)
- localisé à Bordeaux
- mise en service prévue pour début 2027
Auteur : Bruno Mercier - Licence CC-BY-NC-SA-4.0